【新智元導讀】從攔截彼得·蒂爾、警告馬斯克,到如今公開說「必須有適應能力」,哈薩比斯史詩級轉身:AI安全窗口正在永久關閉,他不再幻想制度,而是賭上全部身家——賭影響力,賭良知,賭自己。最怕AI毀滅人類的人,正在拚命造AI!最相信治理的人,如今親口承認:治理徹底靠不住!最強調安全的DeepMind,也被拖入戰時軍備競賽!就在幾小時前, DeepMind創始人Demis Hassabis哈薩比斯自己親手砸碎了AI安全幻想,從理想主義者徹底轉向現實派。他承認:超級智能可能滅絕人類,卻只能靠自己「搶座上桌」來護航。哈薩比斯,這個曾發誓要用嚴密的制度、法律約束和倫理委員會將AI鎖進籠子裡的人,坐在那個破舊的吊燈下,無奈承認:「安全不再取決於治理結構。即便有董事會,在關鍵時刻,他們也未必會做對的事。」他轉而提出了一個極具現實主義、甚至帶有些許悲劇色彩的新方案:「我必須坐上桌,爭取影響力。」幻想再三破滅,哈薩比斯轉身哈薩比斯不是普通加速派。一般而言,AI領袖通常分為兩派:一派是以OpenAI奧特曼為代表的「加速主義者」,相信技術總能解決技術帶來的問題;另一派是憂心忡忡的「末日預言家」,認為AI可能像核武器一樣導致人類滅絕。但哈薩比斯是一個極其複雜的矛盾體:他是為了阻止末日,才決定親手製造AI。這種近乎悖論的動力源於他極度深邃的焦慮。哈薩比斯對「AI滅絕風險」瞭如指掌,熟悉程度甚至超過了最激進的抗議者。他和DeepMind的另一位聯創Shane Legg,就在一次AI安全的講座上相識。目前,Shane Legg任GoogleDeepMind的首席AGI科學家,擔任AGI安全委員會聯席主席,同時也領隊研究後AGI時代的世界可能是什麼樣子。在「奇點峰會」上,他曾攔截彼得·蒂爾(Peter Thiel),向他兜售關於機器如何超越人類的幻象。他曾當面告訴馬斯克,殖民火星毫無意義,因為如果超級智能是惡意的,它同樣能造出橫跨星際的火箭,火星絕不是人類的避難所。這種焦慮催生了他早期極具英雄主義色彩的「單體治理」(Singleton Scenario)構想——他曾嚴肅地計畫,帶著全球最頂尖的科學家,躲進一個秘密的「地堡」——可能是摩洛哥的沙漠,也可能是某個與世隔絕的孤島。在那裡,他們將像開發曼哈頓計畫一樣,在沒有資本壓力、沒有地緣競爭、沒有世俗干擾的情況下,代表全人類開發出第一個「絕對安全」的超級智能。哈薩比斯被馬斯克背刺?「只要這個世界上只有一隻手握著火種,我們就還能控制火勢。」 這是哈薩比斯最初的邏輯。為了這個邏輯,他在2014年將DeepMind賣給Google時,開出了歷史上最奇葩的收購條件:即使Google付了錢,哈薩比斯依然要在AI安全事務上保持絕對的獨立;設立一個由獨立專家組成的外部委員會來監督整個處理程序;AI的軍事應用將被嚴格禁止。從少年時代起,哈薩比斯就立志要建構強AI。而只有確保其安全性,他才能為畢生的事業找到正當理由。Google收購前不久,哈薩比斯曾提醒DeepMind的研究員候選人,如果簽約加入,就要做好心理準備——最終的終局之戰來臨時,他會進入一個地下基地,實現單體治理的壯舉。2015年,為了落實Google承諾設立的AI監督委員會,DeepMind組織了一場秘密集會,邀請了哲學家和技術專家參加。哈薩比斯邀請馬斯克主持集會,地點設在馬斯克的SpaceX加州總部。但這一招適得其反。這次集會,標誌著哈薩比斯的安全構想開始瓦解。馬斯克聽取了哈薩比斯及其聯合創始人的演示,隨後反其道而行之。他與奧特曼聯手創立了OpenAI。那一刻,哈薩比斯的安全烏托邦就開始死了。失了裡子,還丟面子了考慮到人性,這種局面不可避免。面對鑽木取火般史詩級的AI技術前景,人們並不會凝聚成一個單一的集體。他們爭論不休、相互嫉妒、各自為營。此時,哈薩比斯本可以停下來重新思考。如果「單一主體」的設想過於天真,AI開發者又如何避免一場衝向懸崖的競賽?但哈薩比斯非但沒有停下腳步,反而加速前進。2016年,AlphaGo橫空出世。機器智能超越人類智力的時間表,一下子提前了。為了跟上AI這一進展,哈薩比斯提出了新的想法,希望讓AI服務於人類。他與聯合創始人穆斯塔法·蘇萊曼一起,著手與Google談判,尋求建立一套新的治理保障機制。為了推進這個秘密的「馬里奧計畫」(Project Mario),他聘請了一支頂尖的法律團隊,獲得了外部10億美元的資金承諾,並考慮如果無法獲得對技術的控制權,就讓DeepMind從Google獨立出去。與此同時,蘇萊曼還帶領DeepMind團隊參與了一項幫助英國國家級的急性腎病管理項目。如果能實現AI的獨立治理,又能改善普通英國民眾的健康狀況,哈薩比斯或許就能確信,自己的追求確實是向善的。然而,這兩項努力均以失敗告終。與Google圍繞治理權的拉鋸戰持續了三年,困難重重。而幫助英國國家醫療服務體系的項目,則遭到了隱私保護倡導者的強烈反彈——他們憤怒於一家美國科技巨頭的子公司可能染指患者資料。到2019年,哈薩比斯和DeepMind在這兩條戰線上都已退卻。蘇萊曼最後也離開了DeepMind。ChatGPT致命一擊,GoogleAI狂飆2022年,ChatGPT的爆發,像一顆核彈丟進了哈薩比斯的辦公室。在此之前,哈薩比斯還試圖維持「科學家的優雅」。他帶領團隊開發AlphaFold,破解蛋白質折疊難題,拿下了諾貝爾獎。他認為這是AI服務人類的最高境界:一種純粹的、造福醫療的、可控的科學。但市場不這麼看。當ChatGPT成為歷史上增長最快的應用時,Google慌了,整個矽谷都瘋了。2022年,ChatGPT爆火那天,哈薩比斯在內部定調:現在是戰爭狀態!在這個狀態下,所有之前的安全承諾都變得脆弱不堪:Google開始積極接觸國防部門,試圖將AI賣給五角大樓(曾是哈薩比斯的紅線)。在權力鬥爭中,原本那個「獨立倫理委員會」幾乎隱形。為了追趕GPT-4,DeepMind與Google大腦強行合併,速度取代了嚴謹。哈薩比斯看清了一個殘酷的現實:在AI競賽中,沒有一個非營利的制度能寄生在營利性巨頭的體內。當生存受到威脅,所有的倫理都是奢侈品。哈薩比斯親眼看著自己親手築起來的所有牆,一堵一堵倒掉。他終於承認:「即使有治理委員會,關鍵時刻也可能做錯決定。」真正失控的不是模型,而是人類競賽孤獨的人類守望者現在,哈薩比斯徹底轉向現實主義。他的目標,是爭取到「一張決策桌旁的席位,這樣當安全問題出現時」,他就能參與決定解決方案。「事情不是非黑即白的,尤其是當你面對一項後果未知的技術時,」他告訴記者。「所以你必須有適應能力。你不得不從理想主義者轉變為現實主義者,但希望依然能堅守自己的價值觀。」哈薩比斯對「治理」的徹底祛魅,放棄了制度安全,改為靠個人影響力「搶座上桌」。一邊狂推AlphaFold拿諾貝爾獎、Gemini繼續衝鋒,一邊把希望死死攥在「有良知的人」手裡。更狠的反轉來了:連馬斯克這種曾經最激進的安全派都開始狂踩油門。樂觀派還在喊「對齊技術能解決一切」,可哈薩比斯自己都不信了。制度徹底死了。OpenAI董事會罷免奧特曼,又瞬間被資本力量反殺。他選擇了最無奈的一條路:「讓自己成為權力的一部分。」他現在的安全邏輯是:既然我無法阻止這場競賽,那我就必須贏得這場競賽。我必須留在牌桌上,我必須擁有最高的話語權。這樣,當真正的「奇點」來臨,當那個人類無法理解的決定需要被做出時,至少,坐在那個關鍵位置上的人,是一個從第一天起就對AI心存敬畏的哈薩比斯。他現在只能賭——賭「好人掌權」能救世界。可問題來了:如果AI安全只能靠「好人掌權」,到底是救贖,還是最危險的賭局?AI安全窗口正在永久關閉。超級智能若對齊失敗,造的火箭、殖民的太空,都逃不掉滅頂之災。人類本性早已把統一治理變成永遠的笑話。唯一希望,只剩「有良知的人掌握話語權」這種最脆弱、最危險的方案。哈薩比斯不是唯一改變的人,他只是第一個把殘酷現實說透的人。現在,第37手棋,已經落在我們每個人頭上——你我正在見證的,是一場文明豪賭。 (新智元)